在各种机器学习问题中,包括转移,多任务,连续和元学习在内,衡量不同任务之间的相似性至关重要。最新的测量任务相似性的方法依赖于体系结构:1)依靠预训练的模型,或2)在任务上进行培训网络,并将正向转移用作任务相似性的代理。在本文中,我们利用了最佳运输理论,并定义了一个新颖的任务嵌入监督分类,该分类是模型的,无训练的,并且能够处理(部分)脱节标签集。简而言之,给定带有地面标签的数据集,我们通过多维缩放和串联数据集样品进行嵌入标签,并具有相应的标签嵌入。然后,我们将两个数据集之间的距离定义为其更新样品之间的2-Wasserstein距离。最后,我们利用2-wasserstein嵌入框架将任务嵌入到矢量空间中,在该空间中,嵌入点之间的欧几里得距离近似于任务之间提出的2-wasserstein距离。我们表明,与最佳传输数据集距离(OTDD)等相关方法相比,所提出的嵌入导致任务的比较显着更快。此外,我们通过各种数值实验证明了我们提出的嵌入的有效性,并显示了我们所提出的距离与任务之间的前进和向后转移之间的统计学意义相关性。
translated by 谷歌翻译
事实证明,神经操作员是无限维函数空间之间非线性算子的强大近似值,在加速偏微分方程(PDE)的溶液方面是有希望的。但是,它需要大量的模拟数据,这些数据可能成本高昂,从而导致鸡肉 - 蛋的困境并限制其在求解PDE中的使用。为了摆脱困境,我们提出了一个无数据的范式,其中神经网络直接从由离散的PDE构成的平方平方残留(MSR)损失中学习物理。我们研究了MSR损失中的物理信息,并确定神经网络必须具有对PDE空间域中的远距离纠缠建模的挑战,PDE的空间域中的模式在不同的PDE中有所不同。因此,我们提出了低级分解网络(Lordnet),该网络可调节,并且也有效地建模各种纠缠。具体而言,Lordnet通过简单的完全连接的层学习了与全球纠缠的低级别近似值,从而以降低的计算成本来提取主要模式。关于解决泊松方程和纳维尔 - 长方式方程的实验表明,MSR损失的物理约束可以提高神经网络的精确度和泛化能力。此外,Lordnet在PDE中的其他现代神经网络体系结构都优于最少的参数和最快的推理速度。对于Navier-Stokes方程式,学习的运算符的速度比具有相同计算资源的有限差异解决方案快50倍。
translated by 谷歌翻译
语言模型既展示了定量的改进,又展示了新的定性功能,随着规模的增加。尽管它们具有潜在的变革性影响,但这些新能力的特征却很差。为了为未来的研究提供信息,为破坏性的新模型能力做准备,并改善社会有害的效果,至关重要的是,我们必须了解目前和近乎未来的能力和语言模型的局限性。为了应对这一挑战,我们介绍了超越模仿游戏基准(Big Bench)。 Big Bench目前由204个任务组成,由132家机构的442位作者贡献。任务主题是多样的,从语言学,儿童发展,数学,常识性推理,生物学,物理学,社会偏见,软件开发等等。 Big-Bench专注于被认为超出当前语言模型的功能的任务。我们评估了OpenAI的GPT型号,Google内部密集变压器体系结构和大型基础上的开关稀疏变压器的行为,跨越了数百万到数十亿个参数。此外,一个人类专家评估者团队执行了所有任务,以提供强大的基准。研究结果包括:模型性能和校准都随规模改善,但绝对的术语(以及与评估者的性能相比);在模型类中的性能非常相似,尽管带有稀疏性。逐渐和预测的任务通常涉及大量知识或记忆成分,而在临界规模上表现出“突破性”行为的任务通常涉及多个步骤或组成部分或脆性指标;社交偏见通常会随着含糊不清的环境而随着规模而增加,但这可以通过提示来改善。
translated by 谷歌翻译
在这项工作中,我们提出了一个置换不变的语言模型Symphonynet,作为象征性交响音乐生成的解决方案。我们建议使用基于变压器的自动回归语言模型具有特定的3-D位置嵌入的新型多通道可重复的多磁场(MMR)表示,并模拟音乐序列。为了克服长度溢出在建模超长的交响令牌时,我们还提出了一对经过修改的字节对编码算法(音乐bpe)用于音乐令牌,并引入了一种新颖的线性变压器解码器架构作为骨干。同时,我们通过从输入中掩盖仪器信息来训练解码器将自动编排作为联合任务学习。我们还引入了一个大规模的符号交响数据集,以进行交响曲生成研究的发展。经验结果表明,所提出的方法可以产生连贯,新颖,复杂和和谐的交响曲,作为多轨多训练符号音乐生成的先驱解决方案。
translated by 谷歌翻译
利用机器学习来促进优化过程是一个新兴领域,该领域有望绕过经典迭代求解器在需要接近实时优化的关键应用中引起的基本计算瓶颈。现有的大多数方法都集中在学习数据驱动的优化器上,这些优化器可在解决优化方面更少迭代。在本文中,我们采用了不同的方法,并建议将迭代求解器完全替换为可训练的参数集功能,该功能在单个feed向前输出优化问题的最佳参数/参数。我们将我们的方法表示为学习优化优化过程(循环)。我们显示了学习此类参数功能的可行性,以解决各种经典优化问题,包括线性/非线性回归,主成分分析,基于运输的核心和二次编程在供应管理应用程序中。此外,我们提出了两种学习此类参数函数的替代方法,在循环中有和没有求解器。最后,通过各种数值实验,我们表明训练有素的求解器的数量级可能比经典的迭代求解器快,同时提供了接近最佳的解决方案。
translated by 谷歌翻译
从集合结构的数据学习是一种基本上在机器学习和计算机视觉中的应用程序的重要问题。本文侧重于使用近似最近邻(ANN)解决方案,特别是地区敏感的散列来源的非参数和数据独立于无关的学习。我们考虑从输入集查询设置检索的问题。这样的检索问题需要:1)一种有效的机制来计算集合和2)的距离/异化,以及快速最近邻南搜索的适当数据结构。为此,我们提出切片 - Wasserstein将嵌入作为计算上高效的“Set-2-向量”机制,使下游ANN能够具有理论担保。该组元素被视为来自未知底层分布的样本,并且切片 - Wasserstein距离用于比较集合。我们展示了算法的有效性,表示在各种集合检索数据集上的设定局部敏感散列(Slosh),并将我们提出的嵌入方法与标准集嵌入方法进行比较,包括泛化均值(Gem)嵌入/池,具有额定排序池(FSpool )和协方差汇总并显示出检索结果的一致性。用于复制我们的结果的代码可在此处提供:\ href {https://github.com/mint-vu/slosh} {https://github.com/mint-vu/slosh}。
translated by 谷歌翻译
背景:电子健康记录(EHRS)包含丰富的患者健康历史信息,这通常包括结构化和非结构化数据。已经有许多研究专注于从结构化数据中蒸馏有价值的信息,例如疾病代码,实验室测试结果和治疗方法。但是,依托结构化数据可能不足反映患者的综合信息,此类数据可能偶尔含有错误的记录。目的:随着机器学习(ML)和深度学习(DL)技术的最近进步,越来越多的研究通过纳入非结构化的自由文本数据,寻求获得更准确的结果。本文评论了使用多模式数据的研究,即结构化和非结构化数据的组合,从EHRS作为传统ML或DL模型的输入来解决目标任务。材料和方法:我们在电气和电子工程师(IEEE)数字图书馆(IEEE)数字图书馆,PubMed和Compution Machion(ACM)数字文章中搜索了与基于ML的多模式EHR研究相关的制品。结果与讨论:最后94项包括研究,我们专注于如何使用常规ML和DL技术合并和互动的数据来自不同方式的数据,以及如何在与EHR相关的任务中应用这些算法。此外,我们研究了这些融合方法的优点和局限,并表明了基于ML的多模式EHR研究的未来方向。
translated by 谷歌翻译
Bayesian optimization (BO), while proved highly effective for many black-box function optimization tasks, requires practitioners to carefully select priors that well model their functions of interest. Rather than specifying by hand, researchers have investigated transfer learning based methods to automatically learn the priors, e.g. multi-task BO (Swersky et al., 2013), few-shot BO (Wistuba and Grabocka, 2021) and HyperBO (Wang et al., 2022). However, those prior learning methods typically assume that the input domains are the same for all tasks, weakening their ability to use observations on functions with different domains or generalize the learned priors to BO on different search spaces. In this work, we present HyperBO+: a pre-training approach for hierarchical Gaussian processes that enables the same prior to work universally for Bayesian optimization on functions with different domains. We propose a two-step pre-training method and analyze its appealing asymptotic properties and benefits to BO both theoretically and empirically. On real-world hyperparameter tuning tasks that involve multiple search spaces, we demonstrate that HyperBO+ is able to generalize to unseen search spaces and achieves lower regrets than competitive baselines.
translated by 谷歌翻译
已知基于优化的3D对象跟踪是精确且快速的,但对大型框架间位移敏感。在本文中,我们提出了一种快速有效的非本地3D跟踪方法。基于观察到错误的局部最小值主要是由于平面外旋转引起的,我们提出了一种混合方法,该方法将非本地和局部优化的不同参数结合在一起,从而在6D姿势空间中有效地进行非本地搜索。此外,为姿势优化提出了一种预先计算的基于强大轮廓的跟踪方法。通过使用带有多个候选对应的长搜索线,它可以适应不同的帧位移而无需粗到精细的搜索。在预计算之前,可以非常快速地进行姿势更新,从而使非本地优化实时运行。我们的方法优于大小位移的所有先前方法。对于大型位移,精度得到了极大的提高($ 81.7 \%\; \ text {v.s。} \; 19.4 \%$)。同时,只有CPU可以实现实时速度($> $ 50fps)。源代码可在\ url {https://github.com/cvbubbles/nonlocal-3dtracking}中获得。
translated by 谷歌翻译
In this paper, we propose a robust 3D detector, named Cross Modal Transformer (CMT), for end-to-end 3D multi-modal detection. Without explicit view transformation, CMT takes the image and point clouds tokens as inputs and directly outputs accurate 3D bounding boxes. The spatial alignment of multi-modal tokens is performed implicitly, by encoding the 3D points into multi-modal features. The core design of CMT is quite simple while its performance is impressive. CMT obtains 73.0% NDS on nuScenes benchmark. Moreover, CMT has a strong robustness even if the LiDAR is missing. Code will be released at https://github.com/junjie18/CMT.
translated by 谷歌翻译